Ottima decodifica dalla corteccia
delle parole pensate
GIOVANNI ROSSI
NOTE E NOTIZIE - Anno XVII – 11 aprile
2020.
Testi
pubblicati sul sito www.brainmindlife.org della Società Nazionale di
Neuroscienze “Brain, Mind & Life - Italia” (BM&L-Italia). Oltre a
notizie o commenti relativi a fatti ed eventi rilevanti per la Società, la
sezione “note e notizie” presenta settimanalmente lavori neuroscientifici
selezionati fra quelli pubblicati o in corso di pubblicazione sulle maggiori riviste
e il cui argomento è oggetto di studio dei soci componenti lo staff dei recensori della Commissione Scientifica della Società.
[Tipologia del testo: RECENSIONE]
Tradizionale argomento di un filone fantascientifico,
la lettura del pensiero o, più propriamente, del flusso di parole mentali alla
base dei processi di cognizione noetica e comunicazione verbale, negli
anni recenti ha acquistato uno spazio mediatico notevole, anche a seguito degli
esperimenti di comunicazione umana diretta da cervello a cervello, documentata e
presentata anche da noi su questo sito attraverso le recensioni dei lavori
originali[1]. Fino a una decina di anni fa, molti neuropsicologi e neuroscienziati
cognitivi dovevano sopportare nelle interviste a scopo divulgativo il
tormentone delle domande sulla possibilità di leggere il pensiero con l’elettroencefalogramma;
la risposta era in genere affidata ad una metafora diffusa dai neurologi
americani negli anni Ottanta e poi ripresa dai divulgatori: l’EEG è come un
elicottero che sorvola i tetti di una città rilevando l’intensità del rumore
nelle varie zone e non può certo sentire i discorsi che si fanno nelle case.
Col passare del tempo, non era più
in questione il rilevo di un tracciato di attività elettrica cerebrale dalla
superficie del cranio, come quello adoperato con grande utilità per fini
diagnostici, ma, sempre più spesso, si trattava di studi elettrocorticografici (ECG)
selettivi, realizzati registrando con elettrodi posti direttamente su
specifiche aree di elaborazione verbale della corteccia cerebrale.
Ancora dieci anni fa, trasmissioni televisive
molto seguite negli USA e puntate di programmi divulgativi diffuse in tutto il
modo attraverso internet, affascinavano l’audience suggerendo che la
scienza era giunta a un passo dal poter leggere nel cervello le parole che
sarebbero state pronunciate da una persona, o che erano state solo pensate. In
realtà, era in gioco una questione non da poco: decifrare il codice elettrico
del linguaggio verbale umano.
All’inizio del terzo millennio,
alcuni studi avevano dimostrato che i segnali cerebrali possono dare
informazioni dettagliate circa azioni da compiere o solo immaginate: alcuni
tipi di movimenti degli arti e perfino atti fonoarticolatori legati alla
pronuncia di una parola potevano essere riconosciuti da un pattern di
attività neuronica, ma fino al 2011 la ricerca non aveva fornito concrete
evidenze sperimentali della possibilità di interpretare il linguaggio
generato internamente nella dimensione mentale della funzione cerebrale di
una persona. La codifica elettrica della parola riportava al più generale e
annoso problema dell’esistenza di un codice neurale universale alla base delle
funzioni esecutive del cervello. Gli studi sugli arti robotici interfacciati
col cervello avevano dimostrato l’universalità di alcuni schemi di segnali
motori, comuni all’uomo e alla scimmia, ma le informazioni esecutive più
complesse sfuggivano alle interpretazioni dei ricercatori.
Nel 2011 Xiaomei Pei, Dennis L.
Barbour, Eric C. Leuthardt e Gerwin Schalk hanno dimostrato per primi che è
possibile usare i segnali elettrocorticografici per distinguere vocali e
consonanti incluse nelle parole pronunciate e immaginate, e hanno definito le
aree della corteccia che contengono la maggior parte dell’informazione
necessaria a caratterizzare vocali e consonanti[2].
Quasi una decade dopo questa prima
decodifica rimangono due grandi problemi per giungere alla lettura dalla
corteccia cerebrale di frasi pensate: la precisione nell’identificazione
e la velocità, che sono ancora lontane da quelle necessarie per seguire
un flusso verbale.
Joseph G. Makin, David A. Moses e
Edward F. Chang hanno mostrato come decodificare l’elettrocorticogramma con
alta precisione alla frequenza dell’esecuzione ordinaria del linguaggio
naturale.
(Makin J. G., et al., Machine translation of cortical activity to
text with an encoder-decoder framework. Nature Neuroscience 23, 575-582, 2020).
La provenienza degli autori è la seguente: Center for Integrative
Neuroscience, University of California at San Francisco (UCSF), San Francisco, California
(USA); Department of Neurological Surgery, University of California at San
Francisco (UCSF), San Francisco, California (USA).
Prendendo le mosse dai recenti progressi nella traduzione automatica, Makin e colleghi hanno sottoposto ad addestramento una rete
neurale ricorrente per la codifica dell’attività neurale della lunghezza di
ciascuna sequenza di frase in una rappresentazione astratta, e poi hanno
esercitato la rete neurale artificiale a decodificare questa
rappresentazione, parola per parola, in una frase in lingua inglese.
Per ciascun partecipante alla sperimentazione, i dati consistevano in varie
ripetizioni vocali di un set di 30-50 frasi, insieme con i segnali contemporaneamente
provenienti da circa 250 elettrodi distribuiti sulle aree della
corteccia cerebrale prossime alla scissura di Silvio. I risultati sono
stati molto incoraggianti: la frequenza media di errore in tutto un set di
ripetizioni rimaneva molto bassa, entro il 3%. Infine, i tre ricercatori hanno
dimostrato come la decodifica basata su un insieme di dati limitato possa
essere migliorata con il transfer learning, addestrando alcuni strati
della rete neurale artificiale con molti dati provenienti dai volontari che
hanno preso parte allo studio.
L’autore della nota ringrazia
la dottoressa Isabella Floriani per la correzione della bozza e invita alla lettura delle recensioni di studi di argomento connesso che appaiono nella sezione
“NOTE E NOTIZIE” del sito (utilizzare il motore interno nella pagina “CERCA”).
Giovanni Rossi
BM&L-11 aprile 2020
________________________________________________________________________________
La Società Nazionale di Neuroscienze
BM&L-Italia, affiliata alla International Society of Neuroscience, è
registrata presso l’Agenzia delle Entrate di Firenze, Ufficio Firenze 1, in
data 16 gennaio 2003 con codice fiscale 94098840484, come organizzazione
scientifica e culturale non-profit.
[1] Fra questi vi è anche lo studio
che ha collegato in serie i cervelli di due persone ottenendo che i segnali
recettivi elaborati dal primo cervello inducessero una risposta manuale del
secondo soggetto.
[2] Pei X., et al. Decoding
vowels and consonants in spoken and imagined words using elettrocorticographic
signals in humans. Journal of Neural Engineering 8 (4): 046028; doi:
10.1088/1741-2560/8/4/046028, 2011.